Евроизгледи.
Наистина ли генеративният AI влошава дезинформацията?
Без да се оправяме със съществуващите дефекти в актуалната ни екосистема, ние сътворяваме плодородна почва, където дезинформацията и други нездравословни феномени ще продължат да процъфтяват, написа Калим Ахмед.
През последните години AI господства полемиките в разнообразни браншове.
Неговата бърза интеграция и напредък изпреварват способността на необятната аудитория да бъде в крайник с развиването.
Това принуди публицисти, откриватели и организации на гражданското общество непрестанно да акцентират минусите на тези нововъзникващи технологии и те са прави в това.
Дискусията беше провокирана от най-новите стартиране на Sora, AI модел за превръщане на текст към видео, като мнозина разискват дали принадлежности като тези имат някакви потребни приложения или по своята същина негативно влияние върху света.
Някои избраха по-премерен метод и се пробваха да проучат набора от данни, употребен в модели за образование като Sora. Те взеха решение да пуснат подканите, демонстрирани от OpenAI посредством Midjourney, съвременник на Sora, и откриха поразителни прилики сред резултатите на двата модела.
Технически колумнист разкри, че хиперреалистичен клип, генериран от Sora, който закупи забележителна известност в обществените медии, е бил подготвен благодарение на фрагменти от Shutterstock, компания, която си партнира с OpenAI. Това акцентира лимитираната наличност на висококачествени набори от данни за образование на такива модели.
Едно от забележителните опасения, които неведнъж пораждат в обществения дискурс, е нездравословното влияние на акциите за дезинформация, подпомагани от AI, изключително като се има поради необятно публикуваната наличност на принадлежности за основаване на лъжливо наличие като изображения, текст, дълбоки имитации и клониране на глас.
Основното безпокойствие е, че тези принадлежности разрешават производството на подвеждащо наличие в мащаб, което евентуално изкривява публичните усещания и даже въздейства върху държанието.
Въпреки това, несъразмерното подчертаване на капацитета на дезинформацията, подпомагана от ИИ, отклонява вниманието от две значими действителности.
Първо, обичайните способи за дезинформация не престават да бъдат ефикасни и участниците в заканите могат да експлоатират днешните модели на ИИ, с цел да популяризират дезинформация освен заради тяхната трудност, а по-скоро тъй като сегашните ни инфраструктури са неправилни, което разрешава на дезинформацията да процъфтява без значение от присъединяване на AI.
Второ, използването на генеративен AI може да не е безусловно задоволително потребно за дезинформация, а по-скоро обгръща други злонамерени действия, които се подценяват заради нашия извънреден фокус върху дезинформацията.
Недостатъкът в нашата осведомителна екосистема
Прекомерното внимание, което се отделя на заплахите от дезинформация, поддържана от AI, ненапълно доближи равнищата на научната фантастика.
Това значително се дължи на метода, по който общественият дискурс, изключително в известните новинарски медии, има наклонност да прави сензация на тематиката, вместо да подхожда към нея от обоснована, реалистична позиция.
Изявен случай, който си коства изследва се случаят от предходната година, в който се твърди, че е имало гърмеж покрай Пентагона, подсилен от генерирано от AI изображение, което сякаш изобразява събитието.
Първоначалните изказвания произлизат от ненадеждни източници като RT и бързо се уголемяват от телевизионни канали в Индия.
Човек може да твърди, че това е сполучлива проява на вредите от подпомагания от AI дезинформация, обаче, при по-внимателно разглеждане, това служи като образец, подчертаващ минус в актуалната ни осведомителна инфраструктура.
Изображението, генерирано от AI, употребявано за мотивиране на изказванието, е с ниско качество; по-убедително подправено изображение може да бъде основано благодарение на принадлежности като Adobe Photoshop, евентуално причинявайки по-значителна щета.
ИИ понижи ли времето, належащо на злонамерените участници за генериране на погрешна информация? Несъмнено. Въпреки това, подправеното изображение щеше да се популяризира бързо, защото беше публикувано от първокласни консуматори на X.
ИИ понижи ли времето, належащо на злонамерените участници да генерират погрешна информация? Несъмнено. Въпреки това, подправеното изображение щеше да се популяризира бързо, защото беше публикувано от първокласни консуматори на X (бивш Twitter).
За обществеността и мнозина в обичайните медии разбирането на цялостната промяна на платформата е предизвикателство; няма значение на доказана отметка. Сега това са единствено премиум и непремиум консуматори. Разчитането на синята отметка за бързо обмисляне на достоверността на изказванието е остаряло.
Освен това, когато обичайните телевизионни новинарски издания разпространиха изказванието, те подцениха главните правила на медийната просветеност.
Брюксел стартира правосъдни дейности против X на Илън Мъск поради нелегално наличие, дезинформацияПоследните ескалации ни припомнят за нуждата от битка с дезинформацията
Тъй като изказванието беше популяризирано от RT, рупор на Кремъл, зает в спор с Украйна (a нация, подкрепяна от Съединени американски щати и техните съюзници), тази контекстуална осведоменост се нуждаеше от спомагателна инспекция.
Визуалните изображения обаче бяха неотложно показани на телевизионните екрани в цяла Индия, без да се подлагат на каквато и да е форма на кръстосана инспекция.
Лъжите за „ кокаиновия табиет “ на Зеленски не се нуждаеха от помощта на AI
Има голям брой случаи на акции за дезинформация, проведени от прокремълски артисти, които не разчитат на AI.
Центърът за разбор на заканите на Microsoft (MTAC) разкри една такава акция, при която видеоклипове на Cameo на звезди са манипулирани, с цел да изобразят погрешно украинския президент Володимир Зеленски като наркоман.
На известни персони е било плащано да доставят известия на човек на име „ Владимир “, призовавайки го да потърси помощ за корист с субстанции.
Впоследствие тези видеоклипове бяха модифицирани, с цел да включват връзки, емотикони и лога, създавайки заблуда за достоверност, като че ли в началото са били оповестени в обществените медии.
Тези видеоклипове по-късно бяха отразени от съветските държавни новинарски организации, в това число РИА Новости, Спутник и Русия-24.
Фалшивите сметки в обществените медии, употребявани за разпространяване на дезинформация след гърмежа в болничното заведение в ГазаИзкуственият разсъдък не би трябвало да отвлича вниманието от „ световната щета “ на дезинформацията, споделя шефът на Организация на обединените нации
Многократно акции за дезинформация, дирижирани от неидентифицирани проруски артисти, се пробват да имитират главните медии да популяризират антиукраински разкази.
За да реализират това, те употребяват изфабрикувани екранни фотоси на новинарски публикации, както и повторения на новинарски видеоклипове. Нито един от тези способи не изисква AI; по-скоро те разчитат на обичайни техники като умела операция благодарение на програмен продукт като Adobe Photoshop и Adobe After Effects.
Недостатъците към този момент са налице
Шумът към ръководената от AI дезинформация също служи за отбрана на огромните софтуерни компании от търсене на отговорност.
Казано ясно, изображение, текст, аудио или видео, генерирани от изкуствен интелект, нямат никаква цел без механизъм за разпространяването им до необятна публика.
Разследващите репортажи непрестанно хвърлят светлина върху минусите в рекламните политики, регулиращи мета платформите (Facebook, Instagram, Audience Network и Messenger).
Миналата година отчет разкри мрежа от реклами за крипто измами, работещи на Meta платформи, употребяващи изображения на звезди.
Руска акция за дезинформация, обвързвана с нейното военно разузнаване, употребява изображения на известни персони, в това число Тейлър Суифт, Бионсе... и Кристиано Роналдо, с цел да разпространява антиукраински послания в обществените медии от потребление на уязвимости в рекламните политики на Meta и X.
Тези реклами не употребяват комплициран AI; по-скоро те използваха манипулирани изображения на звезди и се възползваха от пропуск в рекламните политики на Meta.
Тези правила разрешиха проявлението на URL адреси на реномирани новинарски издания, само че при тракване потребителите бяха пренасочени към уеб страници за крипто измами. Тази лъжлива тактичност е наречена " стръв и превключване ".
Знаменитости от Съединени американски щати „ несъзнателно вербувани “ за акция за дезинформация Cameo против президента на Молдова Откакто Илън Мъск пое Twitter, омразата и дезинформацията се разрастнаха
По същия метод съветска акция за дезинформация, обвързвана с военното разузнаване, употребява изображения на известни персони, в това число Тейлър Суифт, Бионсе, Опра, Джъстин Бийбър и Кристиано Роналдо, за разпространение на антиукраински послания в обществените медии посредством потребление на уязвимости в рекламните политики на Meta и X.
Тези малки врати съставляват единствено един от многочислените дефекти в актуалната ни система. Като се има поради демонстрираната резултатност на политическата реклама посредством Big Tech, ние би трябвало да дадем приоритет на оправянето с сходни дефекти.
Все още не знаем по какъв начин да се оправим с дезинформацията
С навлизането в най-голямата изборна година към днешна дата (включваща колосалните 45% от международното население), става явно, че огромните софтуерни компании стартират да отдръпват някои от политиките си във връзка с дезинформацията и политическата реклама.
В огромен политически ход предходната година YouTube разгласи, че към този момент няма да модерира подвеждащи изказвания като тези, че президентските избори през 2020 година са били откраднати от Тръмп, наблягайки продължаващото предизвикателство по какъв начин да се оправим с дезинформацията и дезинформацията в мащаб, изключително на видео основани платформи.
Дори Meta, която нормално популяризира своята самодейност за инспекция на обстоятелства от трети страни, неотдавна вкара нови контроли. Потребителите към този момент имат опцията да дефинират дали желаят тестваните с обстоятелства изявления да се демонстрират на видно място в тяхната емисия (придружени от етикет с тестван факт) или да бъдат изместени по-надолу въз основа на техните желания.
Инициативите за инспекция на обстоятелствата, поддържани от Meta и Гугъл, набраха световна скорост и би трябвало да продължат да получават поддръжка. Това обаче не значи, че би трябвало да се задоволяваме с това, което сме постигнали, и да спрем да идентифицираме други публични променливи, които подтикват дезинформацията.
Тази политика обаче не е без дефекти. Например, в случай че авторитетна фигура предизвиква всичките си почитатели да поправят настройките си, с цел да дават приоритет на тествани обстоятелства изявления, това евентуално може да направи цялата цел на инспекцията на обстоятелствата безполезна.
В последна сметка не е първият път, когато обществени персони се пробват да играят логаритми, употребявайки своите почитатели.
Тези огромни политически ходове се случват в Съединени американски щати, където огромните софтуерни компании са доста по-строги с политиките си за интервенция и манипулиране на избори.
Трябва да се означи, че като цяло Meta не уголемява политиките си за инспекция на обстоятелства до политически реклами или изявления, направени от политици, което е главен проблем на политиката, който е подложен на критика от години.
Троловете употребяват тази реалистична видеоигра, с цел да популяризират дезинформация за войната в УкрайнаЕС изисква Meta и TikTok да поставят детайлности за напъните за ограничение на дезинформацията от войната Израел-Хамас
Общоприето е мнението на специалистите в региона на дезинформацията, че тези компании са склонни да не са толкоз щателни със страните от третия свят, като някои употребяват термина „ отнасяне на доведено дете “, с цел да опишат този феномен.
Така че повдига въпроса: в случай че в политиките им има приключване на информация или незадоволителни ограничения, какво влияние би имало това върху тези страни?
Не е единствено наличието, а роман, който генерира
Линеен метод към дезинформацията, т.е. приемането, че инспекцията на обстоятелствата просто ще реши казуса, е интелектуално нечестна мярка.
Дори с евентуални дефекти, тези начинания за инспекция на обстоятелствата, поддържани от Meta и Гугъл, набраха световна скорост и би трябвало да продължат да получават поддръжка.
Това обаче не значи, че би трябвало да се задоволяваме с това, което сме постигнали, и да спрем да идентифицираме други публични променливи, които подтикват дезинформацията.
Освен това, за лица, уязвими към дезинформация и дезинформация, определящ фактор не е безусловно качеството на наличието, като комплицирани изображения и видеоклипове, генерирани от AI, а по-скоро всеобхватният роман, който това наличие поддържа.
За производителите на дезинформация това е предизвикателство за бинарна подредба, сходно на метода, по който измамниците, маскирани като нигерийски принцове, вършат разлика сред податливи и неподатливи консуматори, което им разрешава да се насочат към задоволително жертви за облага. blockquote> Например, надълбоко подправено видео неотдавна стана вирусно, показващо хипотетично предаване на France 24, в което водещ оповестява, че президентът Еманюел Макрон е отменил планувано посещаване в Украйна заради опасения от опит за ликвидиране.
Предаването в никакъв случай не е било излъчено от France24, само че към този момент беше доста вирусно в съветската осведомителна сфера, че някогашният съветски президент и заместник-председател на Съвета за сигурност на Русия Дмитрий Медведев побърза да показа мнението си за X по отношение на хипотетичен новинарски репортаж.
Така наречената част от информацията за опита за ликвидиране на Макрон може да